Читать книгу "Будущее без работы. Технология, автоматизация и стоит ли их бояться - Даниэль Сасскинд"
Шрифт:
Интервал:
Закладка:
Как и Deep Blue, многие из этих новых машин полагаются на последние достижения в области обработки и хранения данных. Вспомните, что между Дартмутским собранием 1956 года и концом столетия мощность обычного компьютера увеличилась примерно в десять миллиардов раз. Что касается объема данных, то Эрик Шмидт, бывший председатель совета директоров Google, считает, что сейчас мы за каждые два дня создаем столько же информации, сколько было создано с момента зарождения цивилизации до 2003 года[158].
В первой волне развития искусственного интеллекта, еще до появления таких вычислительных мощностей и возможностей по хранению данных, люди должны были сами выполнять большую часть сложной вычислительной работы. Опираясь на свою изобретательность, проницательность и аналитические способности, исследователи надеялись понять, как люди мыслят, или вручную обнаружить негласные правила, формирующие их поведение, и запечатлеть все это в виде набора четких инструкций для машин. Но во второй волне ИИ машины больше не полагались на такое иерархическое применение человеческого интеллекта, а начали использовать колоссальные вычислительные возможности и все более сложные алгоритмы для обработки огромных массивов данных, изучая человеческий опыт, чтобы выяснить, что делать им самим, двигаясь снизу вверх[159].
Слово «алгоритм», происходящее от имени математика IX века по имени Абу Абдуллах Мухаммад ибн Муса Аль-Хорезми, означает просто набор пошаговых инструкций. Алгоритмы машинного обучения, которые сегодня во многом определяют прогресс в области искусственного интеллекта, специально нацелены на то, чтобы системы учились на собственном опыте, а не руководствовались явными правилами. Многие из них опираются на идеи, разработанные задолго до того, как появились такие вычислительные мощности и был накоплен такой объем данных, чтобы из интересных теоретических возможностей они превратились в нечто более практическое. Действительно, некоторые из величайших триумфов нынешних прагматиков выросли из пуристских попыток копировать человеческие существа. Например, сегодня самые способные машины полагаются на так называемые искусственные нейронные сети, разработанные несколько десятилетий назад в попытке имитировать работу человеческого мозга[160]. Однако теперь нет особого смысла судить о том, насколько точно эти сети имитируют человеческую анатомию; их оценивают с чисто прагматической точки зрения, в зависимости от того, насколько хорошо они выполняют поставленные задачи[161].
В последние годы эти системы стали намного сложнее, чем Deep Blue. Взять, например, систему AlphaGo, разработанную для игры в китайскую настольную игру го. В 2016 году в серии из пяти игр она взяла верх над Ли Седолом, лучшим игроком в мире. Это крупное достижение, по мнению большинства экспертов, должно было произойти по меньшей мере на десять лет позже. Сложность го заключается не в правилах, а в том, что «пространство поиска», т. е. набор всех возможных ходов для просеивания, огромно. В шахматах на первом ходу первый игрок выбирает один из двадцати возможных ходов, а в го – из 361 варианта. После ответного движения противника в шахматах есть 400 возможных вариантов, а в го – около 129 960. После двух ходов это число увеличивается до 71 852 ходов в шахматах и около семнадцати миллиардов в го. А после всего лишь трех ходов у каждого игрока есть около 9,3 миллиона вариантов в шахматах и около 2,1×1015 в го – т. е. два с пятнадцатью нулями. Это в 230 миллионов раз больше возможностей, чем в шахматах на том же этапе игры[162].
В шахматах победа Deep Blue была отчасти обусловлена способностью компьютера использовать подавляющую вычислительную мощь по сравнению с той, что располагал Каспаров. Но в го эта стратегия не сработает, поскольку игра слишком сложна. Поэтому AlphaGo использовал другой подход. Сначала он просмотрел тридцать миллионов ходов из игр лучших игроков. Затем он перешел к обучению, играя против самого себя, и извлек опыт из тысяч собственных игр. Таким образом, AlphaGo смог выиграть, оценивая гораздо меньше позиций, чем Deep Blue.
В 2017 году была представлена еще более сложная версия программы, получившая название AlphaGo Zero. Замечательной эту систему делало то, что она полностью избавилась от всех принципов работы человеческого интеллекта. Глубоко внутри кода Deep Blue было прописано несколько умных стратегий, которые шахматные чемпионы разработали для него заранее[163]. Изучая обширную коллекцию прошлых игр великих игроков-людей, AlphaGo в определенном смысле полагалась на них в своей сложной вычислительной работе. Но AlphaGo Zero ничего этого не требовала. Ей не нужно было ничего знать об игре человеческих экспертов; ей вообще не нужно было пытаться подражать человеческому интеллекту. Все, что ей требовалось, – это правила игры. Получив их, она играла сама в течение трех дней и генерировала собственные данные, а затем победила своего старшего брата, AlphaGo[164].
Другие системы применяют схожие методы в решении задач, больше напоминающие беспорядок реальной жизни. Шахматы и го, например, являются играми «совершенной информации»: оба игрока видят всю доску и все фигуры. Но, как выразился легендарный математик Джон фон Нейман: «Настоящая жизнь совсем не такая. Настоящая жизнь состоит из блефа, из мелких хитростей, из вопросов, что, по мнению другого человека, я собираюсь сделать». Вот почему исследователей очаровал покер – его оказалось очень трудно автоматизировать. Тем не менее DeepStack, разработанный командой из Канады и Чехии в 2017 году, сумел победить профессиональных игроков в покер в серии из более чем 44 тысяч хедз-апов (то есть игр один на один). Как и AlphaGo Zero, он не выстраивал свою тактику на основе анализа прошлых игр, в которые играли люди, и не полагался на «предметные знания», т. е. умные стратегии покера, разработанные людьми. Вместо этого он научился выигрывать, просто исследуя несколько миллионов случайно сгенерированных игр[165]. В 2019 году Facebook и Университет Карнеги – Меллона пошли еще дальше: они объявили о создании Pluribus – системы, которая могла побеждать лучших профессиональных игроков в покер в соревнованиях с участием нескольких игроков. Эта система тоже научилась играть в покер «с нуля», без участия человека, просто играя партию за партией против копий самой себя в течение нескольких дней[166].
Смена приоритетов
Было бы ошибкой думать, что в начале 1990-х исследователи просто «открыли» прагматический путь. Выбор между тем, чтобы заставить машины решать проблемы любыми возможными способами, и копированием человеческих навыков (между тем, что я называю «прагматизмом» и «пуризмом») не нов. Еще
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Будущее без работы. Технология, автоматизация и стоит ли их бояться - Даниэль Сасскинд», после закрытия браузера.